home *** CD-ROM | disk | FTP | other *** search
/ HPAVC / HPAVC CD-ROM.iso / NEUCLS3.ZIP / NURN.ZP / NER.HLP < prev    next >
Text File  |  1994-09-03  |  2KB  |  53 lines

  1. Backpropagation Program 
  2.  
  3. 1. Purpose;
  4.  a. Initialize a MLP using random initial weights
  5.  b. Train a MLP network using backpropagation
  6.  
  7. 2. Features;
  8.  a. Train with or without momentum factor
  9.  b. Train with or without batching (No simultaneous momentum and batching
  10.  c. Adaptive learning factor
  11.  d. Training MSE and error percentages are shown
  12.  e. Feature importance can be measured
  13.  f. Saves weights to disk
  14.  
  15. 3. Example Run of Backpropagation Program
  16.  a. Go to the "Batch Processing" option and press <ret>
  17.  b. Observe the parameter file with commented keyboard responses;
  18.  
  19. grng.top            ! file storing network structure
  20. 2                   ! 1 to initialize with old weights, 2 for random weights
  21. 2                   ! 1 for coded output 2 for uncoded output
  22. grng                ! specify filename for training patterns
  23. 0                   ! specify number of training patterns (0 for all)
  24. 0, 0                ! Enter numbers of 1st and last patterns to examine (0 0 for none)
  25. 2., 1.              ! hidden unit net function standard deviation and mean
  26. 1                   ! 0 for full batching, 1 for none
  27. .007, .98           ! learning factor, momentum factor
  28. 50,  15.            ! Number of training iterations and error % threshold
  29. 4                   ! 1 to continue, 2 to change weights, 3 to process another file, 4 to stop
  30. 1                   ! 1 for feature selection, 0 else 
  31. grng.wts            ! filename for saving the weights
  32.  
  33.  
  34.     The program will read all patterns from the file grng, and train a MLP
  35.     using the network structure file grng.top, which is shown below.
  36.  
  37.            3
  38.           16          15           4
  39.            1           1
  40.  
  41.     The network will have 3 layers including 16 inputs, 15 hidden units
  42.     in one hidden layer, and 4 outputs (one per class). In addition,
  43.     layers 2 and 3 connect to all previous layers. Training will stop
  44.     after 50 iterations, or when the classification error % reaches 15 % .
  45.     The final network weights will be stored in the file grng.wts. 
  46.  c. Exit the DOS editor and observe the program running
  47.  d. Go to the "Examine Program Output" option and press <ret>
  48.  e. You can run this program on your own data, simply by editing the 
  49.     parameter file in the "batch Run" option.
  50.  
  51.  
  52.  
  53.